سوندار پیچای، مدیر عامل گوگل. گوگل
سوندار پیچای، مدیر عامل گوگل. گوگل

واکنش کارمندان گوگل پس از آنکه شرکت وعده خود را در مورد تسلیحات هوش مصنوعی زیر پا گذاشت: "آیا ما آدم بده‌ها هستیم؟"

پس از آنکه گوگل وعده خود را مبنی بر عدم استفاده از هوش مصنوعی برای تسلیحات یا نظارت پس گرفت، برخی از کارمندان واکنش‌های خود را در تابلوی اعلانات داخلی شرکت منتشر کردند.

این شرکت روز سه‌شنبه اعلام کرد که دستورالعمل‌های اخلاقی هوش مصنوعی خود را به‌روزرسانی کرده است، که نحوه استفاده و عدم استفاده گوگل از فناوری خود را مشخص می‌کند. نسخه جدید، عبارتی را حذف کرد که در آن گوگل متعهد شده بود از هوش مصنوعی برای ساخت سلاح، ابزارهای نظارتی یا فناوری‌هایی که باعث آسیب کلی می‌شوند یا احتمالاً باعث آن می‌شوند استفاده نکند.

به گفته پست‌هایی که با بیزینس اینسایدر به اشتراک گذاشته شده است، چندین کارمند گوگل از این تغییر در تابلوی اعلانات داخلی شرکت، Memegen، ابراز ناامیدی کردند.

یک میم، ساندار پیچای، مدیر عامل شرکت را نشان می‌دهد که موتور جستجوی گوگل را برای چگونگی تبدیل شدن به پیمانکار تسلیحاتی جستجو می‌کند.

یکی دیگر از کارمندان، میم محبوبی از یک بازیگر را که به عنوان یک سرباز نازی در یک طرح کمدی تلویزیونی لباس پوشیده بود، تقلید کرد. در آن نوشته شده بود: گوگل ممنوعیت استفاده از هوش مصنوعی خود را برای سلاح و نظارت لغو می‌کند. آیا ما آدم بده‌ها هستیم؟

پست دیگری شلدون را از تئوری بیگ بنگ نشان می‌داد که می‌پرسد چرا گوگل خط قرمز خود را برای سلاح برمی‌دارد، گزارش‌هایی را درباره همکاری نزدیک‌تر گوگل با مشتریان دفاعی از جمله پنتاگون می‌بیند و پاسخ می‌دهد: آه، به همین دلیل است.

این سه میم در میان کارمندان در روز چهارشنبه بیشترین رای را به دست آوردند. با این حال، این موارد فقط توسط تعداد انگشت شماری از کارمندان گوگل به اشتراک گذاشته شد. این شرکت بیش از 180,000 کارمند دارد. این نظرات نشان دهنده کسری از نیروی کار است. برخی از گوگلرها ممکن است از همکاری نزدیک‌تر شرکت‌های فناوری با مشتریان دفاعی و دولت ایالات متحده حمایت کنند.

در سال‌های اخیر، تغییری در میان برخی از شرکت‌های فناوری و استارت‌آپ‌ها به سمت ارائه بیشتر فناوری خود، از جمله ابزارهای هوش مصنوعی، برای اهداف دفاعی ایجاد شده است.

در حالی که گوگل مستقیماً حذف این عبارت را تایید نکرد، دیمیس هاسابیس، مدیرعامل گوگل دیپ‌مایند، و جیمز مانییکا، معاون ارشد فناوری و جامعه، روز سه‌شنبه در یک پست وبلاگی چشم‌انداز ژئوپلیتیکی به‌طور فزاینده پیچیده را توصیف کردند و گفتند که برای کسب‌وکارها و دولت‌ها مهم است که در راستای منافع امنیت ملی با یکدیگر همکاری کنند.

آنها نوشتند: ما معتقدیم که دموکراسی‌ها باید در توسعه هوش مصنوعی پیشرو باشند و از ارزش‌های اصلی مانند آزادی، برابری و احترام به حقوق بشر هدایت شوند. و ما معتقدیم که شرکت‌ها، دولت‌ها و سازمان‌هایی که این ارزش‌ها را به اشتراک می‌گذارند، باید با یکدیگر همکاری کنند تا هوش مصنوعی را ایجاد کنند که از مردم محافظت کند، رشد جهانی را ارتقا دهد و از امنیت ملی حمایت کند.

یک سخنگوی گوگل در پاسخ به درخواست برای اظهار نظر، BI را به پست وبلاگ روز سه‌شنبه این شرکت ارجاع داد.

در سال 2018، کارمندان گوگل به برنامه‌ای با پنتاگون اعتراض کردند که از هوش مصنوعی گوگل برای جنگ استفاده می‌کرد. این شرکت قرارداد را لغو کرد و اصول هوش مصنوعی را مشخص کرد که شامل نمونه‌هایی از مواردی بود که به دنبال آن نخواهد بود، و به طور صریح به سلاح و ابزارهای نظارتی اشاره کرد.

پست وبلاگی درباره اصول 2018 اکنون شامل لینکی در بالا است که کاربران را به دستورالعمل‌های به‌روز شده هدایت می‌کند.

تصمیم گوگل برای ترسیم خطوط قرمز در اطراف تسلیحات، این شرکت را از معاملات نظامی که توسط غول‌های فناوری دیگر، از جمله آمازون و مایکروسافت، امضا شده بود، دور کرد. از سال 2018، پیشرفت‌های عظیمی در هوش مصنوعی حاصل شده است و ایالات متحده اکنون با چین و سایر کشورها برای برتری در این فناوری رقابت می‌کند.

آیا شما کارمند فعلی یا سابق گوگل هستید که اطلاعات بیشتری برای به اشتراک گذاشتن دارید؟ می‌توانید از طریق برنامه پیام‌رسانی امن Signal (+1 628-228-1836) یا ایمیل امن (hlangley@protonmail.com) با این خبرنگار تماس بگیرید. ما می‌توانیم شما را ناشناس نگه داریم.